AI နည်းပညာရဲ့ ရေရှည်အန္တရာယ်အပေါ် ပညာရှင်များရဲ့ သဘောထားကွဲလွဲမှုများ (Analysis)
လက်ရှိအချိန်မှာ AI နည်းပညာဟာ ကဏ္ဍစုံမှာ တိုးတက်လာနေပါပြီ။ ဒါပေမဲ့ ဒီနည်းပညာရဲ့ ရေရှည်လုံခြုံရေး (AI Safety) နဲ့ ပတ်သက်ပြီး နည်းပညာရှင်တွေကြားမှာ အမြင်မတူတာတွေ ရှိနေပါတယ်။

AI နည်းပညာရဲ့ ရေရှည်အန္တရာယ်အပေါ် ပညာရှင်များရဲ့ သဘောထားကွဲလွဲမှုများ (Analysis)
လက်ရှိအချိန်မှာ AI နည်းပညာဟာ ကဏ္ဍစုံမှာ တိုးတက်လာနေပါပြီ။ ဒါပေမဲ့ ဒီနည်းပညာရဲ့ ရေရှည်လုံခြုံရေး (AI Safety) နဲ့ ပတ်သက်ပြီး နည်းပညာရှင်တွေကြားမှာ အမြင်မတူတာတွေ ရှိနေပါတယ်။ မကြာသေးမီက Business Insider မှာ ဖော်ပြခဲ့တဲ့ AI သုတေသီ Roman Yampolskiy ရဲ့ သုံးသပ်ချက်ကတော့ နည်းပညာလောကမှာ ဆွေးနွေးစရာ ဖြစ်လာခဲ့ပါတယ် ။
Roman Yampolskiy ဟာ ဉာဏ်ရည်တုဆိုင်ရာ လုံခြုံရေး (AI Safety) ကို အထူးပြုလေ့လာနေသူဖြစ်ပြီး၊ လာမယ့် နှစ် ၁၀၀ အတွင်း ထိန်းချုပ်မရတဲ့ AI စနစ်တွေကြောင့် လူသားတွေအတွက် ကြီးမားတဲ့ အန္တရာယ်ဖြစ်လာနိုင်ခြေ ၉၉.၉% ရှိတယ်လို့ ခန့်မှန်းထားပါတယ် ။ သူ့ရဲ့ အဓိက အကြောင်းပြချက်ကတော့ "Software Bugs" တွေကြောင့်ပါ ။ ရှုပ်ထွေးလွန်းတဲ့ AI စနစ်ကြီးတွေကို အမှားအယွင်း (Bugs) လုံးဝမပါအောင် ရေးဆွဲဖို့ဆိုတာ လက်ရှိနည်းပညာအရ မဖြစ်နိုင်သေးဘူးလို့ သူက ဆိုပါတယ် ။
ဒီအကြောင်းအရာကို Lex Fridman ရဲ့ Podcast မှာ Roman Yampolskiy က အသေးစိတ် ဆွေးနွေးခဲ့တာပါ ။ သူဟာ "AI: Unexplainable, Unpredictable, Uncontrollable" ဆိုတဲ့ စာအုပ်ကို ရေးသားထားသူလည်း ဖြစ်ပါတယ် ။ လက်ရှိမှာ Google ရဲ့ AI Overviews က ပီဇာလုပ်ရင် ကော်သုတ်ဖို့ အကြံပေးတာမျိုး၊ အာဖရိကမှာ 'K' နဲ့စတဲ့ နိုင်ငံမရှိဘူးလို့ ပြောတာမျိုးတွေလို အမှားတွေ လုပ်နေတာကို ထောက်ပြပြီး၊ အနာဂတ်မှာ ဒီထက်ပိုရှုပ်ထွေးတဲ့ ပြဿနာတွေ တက်လာနိုင်တယ်လို့ ဆိုပါတယ် ။
ဥပမာအနေနဲ့ လက်ရှိအသုံးပြုနေတဲ့ AI Model တွေမှာ မမှန်ကန်တဲ့ အချက်အလက်တွေ ပေးတာမျိုး (Hallucinations)၊ ဖန်တီးသူတွေ မရည်ရွယ်တဲ့ အလုပ်တွေကို လုပ်ဆောင်တာမျိုးတွေ ရှိနေပါသေးတယ် ။ Google ရဲ့ AI feature အချို့မှာ အမှားအယွင်းတွေ ဖြစ်ခဲ့တာကို ထောက်ပြပြီး၊ အနာဂတ်မှာ AI က လူ့ဉာဏ်ရည်ထက် သာလွန်သွားတဲ့အခါ ဒီလိုအမှားမျိုးတွေက ကုစားဖို့ ခက်ခဲလိမ့်မယ်လို့ Yampolskiy က သုံးသပ်ပါတယ် ။
ကွဲပြားသော ခန့်မှန်းချက်များ
ဒါဟာ ပညာရှင်တစ်ဦးရဲ့ အစွန်းရောက်နိုင်တဲ့ ခန့်မှန်းချက်တစ်ခု ဖြစ်တယ်ဆိုတာကို သတိပြုရပါမယ်။ အခြားပညာရှင်များကတော့ ဒီလောက်ထိ အဆိုးမမြင်ကြပါဘူး ။
AI သုတေသီ (၂,၇၀၀) ကို စစ်တမ်းကောက်ယူချက်အရ အန္တရာယ်ရှိနိုင်ခြေကို ၅% လောက်သာ ခန့်မှန်းကြပါတယ် ။ Elon Musk ကတော့ ၁၀-၂၀% လောက် ရှိနိုင်တယ်လို့ ခန့်မှန်းထားပါတယ် ။
ဒီဆွေးနွေးချက်တွေရဲ့ အဓိက ရည်ရွယ်ချက်ကတော့ နည်းပညာကို ကြောက်ရွံ့ဖို့ မဟုတ်ဘဲ၊ ပိုမိုလုံခြုံစိတ်ချရတဲ့ AI စနစ်တွေ (Safety Standards) တည်ဆောက်ဖို့ လိုအပ်ကြောင်း မီးမောင်းထိုးပြနေခြင်း ဖြစ်ပါတယ် ။
Source: Business Insider